Národní úložiště šedé literatury Nalezeno 8 záznamů.  Hledání trvalo 0.02 vteřin. 
Aplikace posilovaného učení při řízení modelu vozidla
Maslowski, Petr ; Uhlíř, Václav (oponent) ; Šůstek, Martin (vedoucí práce)
Tato práce se zabývá vytvořením autonomního agenta pro řízení modelu vozidla. Rozhodování agenta je řízeno pomocí posilovaného učení (reinforcement learning) s využitím neuronových sítí. Agent získává snímky z přední kamery vozidla a na základě jejich interpretace vybírá vhodné akce pro řízení vozidla. V rámci práce jsem navrhl několik funkcí odměn a s vytvořenými modely jsem experimentoval úpravou hyperparametrů. Výsledný agent pak simuluje řízení vozidla na silnici. Výsledek této práce ukazuje možný přístup k ovládání autonomního vozidla, které se učí řídit metodou strojového učení v simulátoru CARLA.
Hluboké neuronové sítě pro posilované učení
Ludvík, Tomáš ; Bambušek, Daniel (oponent) ; Hradiš, Michal (vedoucí práce)
Cílem této práce je použití hlubokých neuronových sítí na problém v posilovaném učení. Používám moji úpravu 2D hry Tuxánci jako testovací prostředí. Jedná se o úpravu, která zajišťuje možnosti využití hry jako prostředí pro strojového učení. Následně řeším problémy s naučením agenta pomocí posilovaného učení algoritmem Double DQN. Pomocí experimentů si prokazuji správné nastavení funkce odměn. 
Sdílení zkušeností v posilovaném učení
Mojžíš, Radek ; Šůstek, Martin (oponent) ; Hradiš, Michal (vedoucí práce)
Cílem této práce je využít metod sdílení zkušeností při učení neuronových sítí na problém posilovaného učení. Jako testovací prostředí používám staré 2D konzolové hry, jako například space invaders nebo Phoenix. Testuji vliv přeučení již natrénovaných modelů na nová podobná prostředí. Dále zkouším metody pro přenášení rysů domén. Nakonec se zaměřuji na možnosti trénování modelu na několika prostředích simultánně. Z výsledků získáme přehled o možnostech sdílení zkušeností při trénování modelů pro algoritmy posilovaného učení.
Deep Learning Methods for Machine Playing the Scotland Yard Board Game
Hrkľová, Zuzana ; Janoušek, Vladimír (oponent) ; Zbořil, František (vedoucí práce)
This theses concerns with deep learning methods applied to machine playing board games containing movement uncertainty. Reinforcement learning principles with main focus on Q-learning algorithms were studied, among which Deep Q--Network had been chosen and applied on simplified rules of the Scotland Yard board game. The final implementation was put to test against Alpha-Beta and Monte Carlo Tree Search. The results have shown that the hider driven by DQN represented the hardest opponent for the other two methods, while the DQN seekers did not manage to surpass past results. Although the implemented method did not reach better results than currently known methods, it proved to be the least demanding when considering computational resources and time needed to perform a given move, making it the most perspective to implement on original version of the game in the future.
Hluboké neuronové sítě pro posilované učení
Ludvík, Tomáš ; Bambušek, Daniel (oponent) ; Hradiš, Michal (vedoucí práce)
Cílem této práce je použití hlubokých neuronových sítí na problém v posilovaném učení. Používám moji úpravu 2D hry Tuxánci jako testovací prostředí. Jedná se o úpravu, která zajišťuje možnosti využití hry jako prostředí pro strojového učení. Následně řeším problémy s naučením agenta pomocí posilovaného učení algoritmem Double DQN. Pomocí experimentů si prokazuji správné nastavení funkce odměn. 
Sdílení zkušeností v posilovaném učení
Mojžíš, Radek ; Šůstek, Martin (oponent) ; Hradiš, Michal (vedoucí práce)
Cílem této práce je využít metod sdílení zkušeností při učení neuronových sítí na problém posilovaného učení. Jako testovací prostředí používám staré 2D konzolové hry, jako například space invaders nebo Phoenix. Testuji vliv přeučení již natrénovaných modelů na nová podobná prostředí. Dále zkouším metody pro přenášení rysů domén. Nakonec se zaměřuji na možnosti trénování modelu na několika prostředích simultánně. Z výsledků získáme přehled o možnostech sdílení zkušeností při trénování modelů pro algoritmy posilovaného učení.
Aplikace posilovaného učení při řízení modelu vozidla
Maslowski, Petr ; Uhlíř, Václav (oponent) ; Šůstek, Martin (vedoucí práce)
Tato práce se zabývá vytvořením autonomního agenta pro řízení modelu vozidla. Rozhodování agenta je řízeno pomocí posilovaného učení (reinforcement learning) s využitím neuronových sítí. Agent získává snímky z přední kamery vozidla a na základě jejich interpretace vybírá vhodné akce pro řízení vozidla. V rámci práce jsem navrhl několik funkcí odměn a s vytvořenými modely jsem experimentoval úpravou hyperparametrů. Výsledný agent pak simuluje řízení vozidla na silnici. Výsledek této práce ukazuje možný přístup k ovládání autonomního vozidla, které se učí řídit metodou strojového učení v simulátoru CARLA.
Umělý hráč pro Angry Birds
Nikonova, Ekaterina ; Gemrot, Jakub (vedoucí práce) ; Matzner, Filip (oponent)
Angry Birds is a popular video game, in which the player is provided with a sequence of birds to shoot from a slingshot. The task of the game is to kill all green pigs with maximum possible score. Angry Birds appears to be a difficult task to solve for artificially intelligent agents due to the sequential decision-making, nondeterministic game environment, enormous state and action spaces and requirement to differentiate between multiple birds, their abilities and optimum tapping times. In this thesis, we are presenting several different techniques suitable for the implementation of artificial Angry Birds agent. First, we will show how limited Breath First Search can be used to estimate potentially good shooting points. After that we will discover how reinforcement learning can be applied to the Angry Birds game. Lastly, we will apply Deep reinforcement learning to Angry Birds game by implementing Double Dueling Deep Q- networks. One of our main goals was to build an agent that is able to compete in AIBirds competition and with humans on the game's first 21 levels. In order to do so, we have collected a dataset of game frames that we used to train our agent. We evaluate our agents using results of the previous participants of AIBirds competition and results of volunteer human players.

Chcete být upozorněni, pokud se objeví nové záznamy odpovídající tomuto dotazu?
Přihlásit se k odběru RSS.